EU AI Act: Parlamentul European adoptă prima lege din lume privind utilizarea inteligenței artificiale. Reglementează drepturile fundamentale ale cetățenilor și promovează inovația

  • Medicina digitală



Miercuri, 13 martie, Parlamentul European a luat o decizie istorică, adoptând Actul pentru Inteligența Artificială (EU AI ACT), ceea ce reprezintă un pas semnificativ către asigurarea siguranței și conformitatea cu drepturile fundamentale ale cetățenilor în utilizarea inteligenței artificiale (AI), promovând în același timp inovația. Regulamentul, convenit în negocieri cu statele membre în decembrie 2023, a fost puternic susținut de membrii parlamentului european, cu 523 de voturi pentru, 46 împotriva și 49 de abțineri.

AI Act își propune să protejeze drepturile fundamentale, democrația, statul de drept și sustenabilitatea mediului, de riscurile care pot apărea în urma folosirii tehnologiilor AI. De asemenea, caută să poziționeze Europa ca lider în domeniul AI prin stabilirea obligațiilor pentru sistemele AI, bazate pe riscuri potențiale și niveluri de impact.

abonare

AI Act clasifică tehnologia în categorii de risc, variind de la „inacceptabil” (tehnologia interzisă) până la risc ridicat, mediu și scăzut. Se așteaptă ca regulamentul să intre în vigoare după ce trece de verificările finale și primește aprobarea Consiliului European. Implementarea va fi apoi realizată în etape, începând din 2025.

Inteligenta artificiala
Image by rawpixel.com on Freepik

Dispozițiile EU AI ACT: 

  • Aplicații interzise

Noile reguli interzic anumite aplicații AI care amenință drepturile cetățenilor, inclusiv sistemele de clasificare biometrică bazate pe caracteristici sensibile și analiza nețintită a imaginilor faciale de pe internet sau din înregistrările CCTV pentru a crea baze de date de recunoaștere facială. Recunoașterea emoțiilor la locul de muncă și școli, scorul social, poliția predictivă (atunci când se bazează exclusiv pe profilarea unei persoane sau evaluarea caracteristicilor sale) și AI care manipulează comportamentul uman sau exploatează vulnerabilitățile persoanelor vor fi, de asemenea, interzise.

  • Excepții pentru forțele de ordine

Utilizarea sistemelor de identificare biometrică (RBI) de către forțele de ordine este interzisă în principiu, exceptând situațiile strict definite. RBI „în timp real” poate fi implementat doar dacă sunt îndeplinite anumite condiții, de exemplu, utilizarea sa este limitată în timp și domeniu geografic și supusă unei autorizații judiciare sau administrative prealabile specifice. Astfel de utilizări pot include căutarea țintită a unei persoane dispărute sau prevenirea unui atac terorist. Utilizarea acestor sisteme post-factum („RBI post-remote”) este considerată un caz de utilizare de risc înalt, necesitând autorizație judiciară, fiind legată de o infracțiune.

  • Obligații pentru sistemele de risc înalt

Sunt prevăzute obligații clare și pentru alte sisteme AI de risc înalt (din cauza potențialului semnificativ de a dăuna sănătății, siguranței, drepturilor fundamentale, mediului, democrației și statului de drept). Exemple de utilizări AI de risc înalt includ infrastructura critică, educația și formarea profesională, angajarea, serviciile private și publice esențiale (de exemplu, sănătatea, băncile), anumite sisteme în forțele de ordine, gestionarea migrației și frontierelor, justiția și procesele democratice (de exemplu, influențarea alegerilor). Astfel de sisteme trebuie să evalueze și să reducă riscurile, să mențină jurnale de utilizare, să fie transparente și precise, și să asigure supravegherea umană. Cetățenii vor avea dreptul de a depune plângeri despre sistemele AI și de a primi explicații despre deciziile bazate pe sisteme AI de risc înalt care le afectează drepturile.

  • Cerințe de transparență

Sistemele AI cu scop general (GPAI) și modelele GPAI pe care se bazează trebuie să îndeplinească anumite cerințe de transparență, inclusiv conformitatea cu legea UE privind drepturile de autor și publicarea rezumatelor detaliate ale conținutului utilizat pentru instruire. Modelele GPAI mai puternice care ar putea prezenta riscuri vor face față unor cerințe suplimentare, inclusiv efectuarea evaluărilor modelelor, evaluarea și atenuarea riscurilor sistemice și raportarea incidentelor.

În plus, imaginile, conținutul audio sau video artificial sau manipulat („deepfakes”) trebuie să fie etichetate clar ca atare.

  • Măsuri pentru susținerea inovației și a IMM-urilor

Sistemele de testare în lumea reală vor trebui stabilite la nivel național și făcute accesibile IMM-urilor și startup-urilor, pentru a dezvolta și instrui produse AI înainte de plasarea pe piață.

Actul UE despre Inteligența Artificială a fost introdus pentru prima dată în aprilie 2021. Această propunere legislativă a Comisiei Europene a avut ca scop crearea unui cadru legal cuprinzător pentru IA, clasificând sistemele IA pe baza nivelurilor lor de risc și stabilind reglementări în consecință.

Citește și